对深层分类器的输入以最大化其错误分类速率的添加剂不可察觉的扰动的设计是对抗机器学习的主要重点。另一种方法是使用类似GAN的结构从头开始合成对抗性示例,尽管使用了大量的训练数据。相比之下,本文考虑了对抗性例子的一声合成。从头开始合成输入,以在预训练模型的输出下诱导任意软预测,同时保持与指定输入的高相似性。为此,我们提出了一个问题,该问题在训练有素的模型的所需和输出分布与此类输入与合成示例之间的相似性之间的距离上编码目标。我们证明了配制的问题是NP完整的。然后,我们将一种生成方法推进了解决方案,在该解决方案中,通过优化双重目标的替代损失函数,将对抗性示例作为生成网络的输出进行了迭代更新。我们证明了框架和方法的普遍性和多功能性,该框架和方法是通过应用于目标对抗攻击的设计,决策边界样本的产生以及置信分类低的综合输入的。该方法进一步扩展到具有不同软输出规格的模型集合。实验结果验证了针对最先进的算法以标准剂进行的靶向和置信降低攻击方法。
translated by 谷歌翻译
张量完成是从部分观察到的条目中估算高阶数据缺失值的问题。由于盛行异常值而引起的数据腐败对传统的张量完成算法提出了重大挑战,这促进了减轻异常值效果的强大算法的发展。但是,现有的强大方法在很大程度上假定腐败很少,这可能在实践中可能不存在。在本文中,我们开发了一种两阶段的稳健张量完成方法,以处理张张量的视觉数据,并具有大量的严重损坏。提出了一个新颖的粗到精细框架,该框架使用全局粗完成结果来指导局部贴剂细化过程。为了有效地减轻大量异常值对张量恢复的影响,我们开发了一种新的基于M估计器的稳健张环回收方法,该方法可以自适应地识别异常值并减轻其在优化中的负面影响。实验结果表明,所提出的方法优于最先进的稳定算法以完成张量。
translated by 谷歌翻译
张量完成旨在通过利用其低级别结构来恢复部分观察到的张量的缺失条目,并已应用于视觉数据恢复。在数据依次到达(例如流视频完成)的应用程序中,需要以流式的方式动态恢复张量的缺失条目。传统的流张量完成算法将整个视觉数据视为张量,当沿时间尺寸的张量子空间发生巨大变化时,可能无法令人满意地工作,例如由于视频框架上的强劲运动。在本文中,我们开发了一种基于贴片跟踪的新型流张量张量环完成框架,以进行视觉数据恢复。给定一个新传入的框架,从上一个帧跟踪小补丁。同时,对于每个跟踪的补丁,通过从新框架中堆叠类似的贴片来构建一个补丁张量。然后,使用流张量环完成算法完成补丁张量,并使用完整的补丁张量恢复了传入框架。我们提出了一种新的补丁跟踪策略,可以通过缺少数据准确有效地跟踪补丁程序。此外,提出了一种新的流张量环完成算法,该算法可以有效,准确地更新潜在的核心张量并完成补丁张量的缺失条目。广泛的实验结果表明,与批处理和流媒体最新张量的完成方法相比,所提出的算法的表现出色。
translated by 谷歌翻译
We consider an approach for community detection in time-varying networks. At its core, this approach maintains a small sketch graph to capture the essential community structure found in each snapshot of the full network. We demonstrate how the sketch can be used to explicitly identify six key community events which typically occur during network evolution: growth, shrinkage, merging, splitting, birth and death. Based on these detection techniques, we formulate a community detection algorithm which can process a network concurrently exhibiting all processes. One advantage afforded by the sketch-based algorithm is the efficient handling of large networks. Whereas detecting events in the full graph may be computationally expensive, the small size of the sketch allows changes to be quickly assessed. A second advantage occurs in networks containing clusters of disproportionate size. The sketch is constructed such that there is equal representation of each cluster, thus reducing the possibility that the small clusters are lost in the estimate. We present a new standardized benchmark based on the stochastic block model which models the addition and deletion of nodes, as well as the birth and death of communities. When coupled with existing benchmarks, this new benchmark provides a comprehensive suite of tests encompassing all six community events. We provide analysis and a set of numerical results demonstrating the advantages of our approach both in run time and in the handling of small clusters.
translated by 谷歌翻译
In robust Markov decision processes (MDPs), the uncertainty in the transition kernel is addressed by finding a policy that optimizes the worst-case performance over an uncertainty set of MDPs. While much of the literature has focused on discounted MDPs, robust average-reward MDPs remain largely unexplored. In this paper, we focus on robust average-reward MDPs, where the goal is to find a policy that optimizes the worst-case average reward over an uncertainty set. We first take an approach that approximates average-reward MDPs using discounted MDPs. We prove that the robust discounted value function converges to the robust average-reward as the discount factor $\gamma$ goes to $1$, and moreover, when $\gamma$ is large, any optimal policy of the robust discounted MDP is also an optimal policy of the robust average-reward. We further design a robust dynamic programming approach, and theoretically characterize its convergence to the optimum. Then, we investigate robust average-reward MDPs directly without using discounted MDPs as an intermediate step. We derive the robust Bellman equation for robust average-reward MDPs, prove that the optimal policy can be derived from its solution, and further design a robust relative value iteration algorithm that provably finds its solution, or equivalently, the optimal robust policy.
translated by 谷歌翻译
Dynamic movement primitives are widely used for learning skills which can be demonstrated to a robot by a skilled human or controller. While their generalization capabilities and simple formulation make them very appealing to use, they possess no strong guarantees to satisfy operational safety constraints for a task. In this paper, we present constrained dynamic movement primitives (CDMP) which can allow for constraint satisfaction in the robot workspace. We present a formulation of a non-linear optimization to perturb the DMP forcing weights regressed by locally-weighted regression to admit a Zeroing Barrier Function (ZBF), which certifies workspace constraint satisfaction. We demonstrate the proposed CDMP under different constraints on the end-effector movement such as obstacle avoidance and workspace constraints on a physical robot. A video showing the implementation of the proposed algorithm using different manipulators in different environments could be found here https://youtu.be/hJegJJkJfys.
translated by 谷歌翻译
图像分类的深卷卷神经网络(CNN)依次交替交替进行卷积和下采样操作,例如合并层或陷入困境的卷积,从而导致较低的分辨率特征网络越深。这些降采样操作节省了计算资源,并在下一层提供了一些翻译不变性以及更大的接收领域。但是,这样做的固有副作用是,在网络深端产生的高级特征始终以低分辨率特征图捕获。逆也是如此,因为浅层总是包含小规模的特征。在生物医学图像分析中,工程师通常负责对仅包含有限信息的非常小的图像贴片进行分类。从本质上讲,这些补丁甚至可能不包含对象,而分类取决于图像纹理中未知量表的微妙基础模式的检测。在这些情况下,每一个信息都是有价值的。因此,重要的是要提取最大数量的信息功能。在这些考虑因素的推动下,我们引入了一种新的CNN体​​系结构,该体系结构可通过利用跳过连接以及连续的收缩和特征图的扩展来保留深,中间和浅层层的多尺度特征。使用来自胰腺导管腺癌(PDAC)CT扫描的非常低分辨率斑块的数据集,我们证明我们的网络可以超越最新模型的当前状态。
translated by 谷歌翻译
在高风险领域中采用卷积神经网络(CNN)模型受到了他们无法满足社会对决策透明度的需求的阻碍。到目前为止,已经出现了越来越多的方法来开发可通过设计解释的CNN模型。但是,这样的模型无法根据人类的看法提供解释,同时保持有能力的绩效。在本文中,我们通过实例化固有可解释的CNN模型的新颖的一般框架来应对这些挑战,该模型名为E pluribus unum unum Change Chandn(EPU-CNN)。 EPU-CNN模型由CNN子网络组成,每个工程都会收到表达感知特征的输入图像的不同表示,例如颜色或纹理。 EPU-CNN模型的输出由分类预测及其解释组成,其基于输入图像不同区域的感知特征的相对贡献。 EPU-CNN模型已在各种可公开可用的数据集以及贡献的基准数据集上进行了广泛的评估。医学数据集用于证明EPU-CNN在医学中对风险敏感的决策的适用性。实验结果表明,与其他CNN体系结构相比,EPU-CNN模型可以实现可比或更好的分类性能,同时提供人类可感知的解释。
translated by 谷歌翻译
对象探测器对于许多现代计算机视觉应用至关重要。但是,即使是最新的对象探测器也不是完美的。在两个看起来与人眼类似的图像上,同一探测器可以做出不同的预测,因为摄像机传感器噪声和照明变化等小图像变形。这个问题称为不一致。现有的准确性指标不能正确解释不一致的情况,并且在该领域的类似工作仅针对人造图像扭曲的改善。因此,我们提出了一种使用非人工视频框架来测量对象检测一致性,随着时间的流逝,跨帧的方法来测量对象检测一致性。使用此方法,我们表明,来自多个对象跟踪挑战的不同视频数据集,现代对象检测器的一致性范围从83.2%至97.1%。最后,我们表明应用图像失真校正(例如.WEBP图像压缩和UNSHARP遮罩)可以提高一致性多达5.1%,而准确性没有损失。
translated by 谷歌翻译
通常使用卷积神经网络(CNN)进行计算机视觉。 CNN是计算密集型的,并且在移动和互联网(IoT)设备等电力控制系统上部署。 CNN是计算密集型的,因为它们不加选择地计算输入图像的所有像素上的许多特征。我们观察到,鉴于计算机视觉任务,图像通常包含与任务无关的像素。例如,如果任务正在寻找汽车,那么天空中的像素不是很有用。因此,我们建议对CNN进行修改以仅在相关像素上操作以节省计算和能量。我们提出了一种研究三个流行的计算机视觉数据集的方法,发现48%的像素无关紧要。我们还提出了重点卷积,以修改CNN的卷积层,以拒绝明显无关的像素。在嵌入式设备上,我们没有观察到准确性的损失,而推论潜伏期,能耗和倍增add计数均减少了约45%。
translated by 谷歌翻译